故事慧分布式智能体集群架构白皮书 (v1.0)
代号: 数字朝廷 (Digital Court)
版本: 1.0
日期: 2026-03-14
制定者: 一龙 (故事慧总运营)
适用范围: 故事慧所有内容创作、审核、发布及多服务器协同场景
1. 核心架构哲学
本架构借鉴中国古代“三省六部制”与现代化“EDICT 协同编辑”理念,构建一个去中心化执行、中心化协调、多模型制衡的智能体集群。
1.1 角色映射
| 角色 | 隐喻 | 职责 | 部署位置 | 推荐模型 |
|---|---|---|---|---|
| 总控智能体 | 皇上 | 统筹全局、任务分发、争议裁决、最终决策 | 美国主节点 (45.207.206.44) | Qwen-3.5-397B (逻辑最强) |
| 节点总督 | 太子 | 领地内任务执行、资源调度、状态汇报 | 各从属服务器 (火山/腾讯/本地) | 根据节点算力分配 |
| 中书省 | 起草组 | 内容初稿创作、资料搜集、大纲拟定 | 动态分配 | Qwen / DeepSeek-V3 |
| 门下省 | 审核组 | 事实核查、逻辑挑刺、合规审查、多视角辩论 | 动态分配 | GLM-4.5 / MiniMax / Gemini |
| 尚书省 | 执行组 | 排版、多模态转换 (音/视频)、多平台分发 | 动态分配 | 专用小模型 + 工具链 |
| 六部 | 技能组 | 资料部 (RAG)、修辞部 (Humanizer)、数据部 (Chart) 等 | 共享服务 | 专用 Skill |
1.2 核心优势
- 制衡机制:通过“中书起草、门下审核”的对抗性生成,消除单一模型幻觉。
- 上下文管理:基于文档状态的协同 (EDICT),避免长上下文溢出,保留完整思维链。
- 弹性扩展:新增服务器只需注册为“节点”,即可纳入集群调度。
- 透明可溯:所有修改、辩论、决策过程均记录在文档元数据中,真人可随时介入。
2. 多服务器协作机制
2.1 网络拓扑
采用 **Hub-and-Spoke **(中心辐射) 架构:
- **中心节点 **(Hub): 美国服务器 (一龙)。拥有全局视图,维护任务队列。
- **分支节点 **(Spoke): 火山引擎、腾讯云、本地服务器。无状态执行,定期汇报心跳。
2.2 通信协议
- **指令下发 **(Downlink):
- 总控通过 OpenClaw
sessions_spawn(SSH 隧道或 HTTP 回调) 向节点发送任务包 (JSON)。 - 任务包包含:
task_id,prompt,role(如中书省),context_files。
- 总控通过 OpenClaw
- **状态汇报 **(Uplink):
- 节点完成任务后,将结果 (Markdown 文档 + 元数据) 写入共享存储或回传主节点。
- 异常情况下触发“八百里加急” (飞书告警)。
- 心跳保活:
- 节点每 5 分钟向主节点发送心跳,报告负载 (CPU/Token 消耗/在线状态)。
2.3 容灾与故障转移
- 节点宕机: 主节点检测到心跳丢失,自动将任务重新分配给其他空闲节点。
- 数据一致性: 采用“最终一致性”模型。共享文档以主节点版本为准 (Source of Truth)。
3. EDICT 协同创作流程 (三省六部制)
以创作《慧镜鉴世》板块文章为例:
3.1 阶段一:拟旨 (任务启动)
- 发起: 老周或总控智能体在
tasks/20260314_001.md写入 Frontmatter:--- id: 20260314_001 title: 守株待兔 vs 美国农业补贴 status: drafting assignee: node-us (中书省) --- - 动作: 总控唤醒“中书省”智能体。
3.2 阶段二:起草 (中书省)
- 执行: 中书省 (Qwen) 搜集资料,撰写初稿。
- 产出: 更新文档正文,状态标记为
reviewing。<!-- EDIT_BLOCK id="intro" status="pending_review" --> 美国农业补贴政策始于 1930 年代... <!-- END_EDIT_BLOCK -->
3.3 阶段三:会审 (门下省 - 核心创新)
- 触发: 状态变更为
reviewing,自动唤醒“门下省” (DeepSeek/GLM)。 - 动作:
- 门下省阅读初稿,发现数据存疑。
- 批注/辩论: 在文档中插入 Comment 块:
<!-- COMMENT by="门下省 (DeepSeek)" type="challenge" --> > **质疑**: 引用 USDA 数据似为 2024 年旧闻,2025 年新法已调整上限。 > **证据**: [链接到搜索结果的引用] > **建议**: 请中书省核实。 <!-- END_COMMENT --> - 多模型议会: 若有争议,可引入第三模型 (如 Gemini) 作为“廷尉”进行仲裁。
3.4 阶段四:修订与公示
- 修订: 中书省根据批注修改文档,并回复 Comment。
- 公示: 状态变更为
public_review。文档同步至飞书群/内部 Wiki,真人和所有智能体可围观评论。 - 定稿: 无异议后,状态变更为
approved,老周“批红”。
3.5 阶段五:执行 (尚书省)
- 状态
approved触发尚书省:- 翻译组 -> 生成英文版。
- 音频组 -> 调用 TTS 生成 MP3。
- 发布组 -> 分发至公众号/知乎/推特。
4. 模型分配与调度策略
4.1 动态路由表
总控维护一张动态路由表,根据任务类型分配模型:
| 任务类型 | 主模型 | 辅助模型 | 理由 |
|---|---|---|---|
| 宏大叙事/创作 | Qwen-3.5-397B | DeepSeek-V3 | Qwen 逻辑强,DeepSeek 文采好 |
| 事实核查/挑刺 | GLM-4.5 | MiniMax | 擅长逻辑漏洞查找 |
| 多模态/翻译 | Gemini-2.0 | Qwen-VL | 原生多模态能力强 |
| 快速响应/简单任务 | Ollama (Local) | - | 本地低延迟,节省 Token |
4.2 负载均衡
- 优先本地: 简单任务优先调度本地 Ollama 实例 (11401-11405)。
- 云端弹性: 复杂任务调度至 NVIDIA/火山云 API。
- 配额管理: 监控各 API Key 用量,自动切换备用 Key (轮询机制)。
5. 安全机制
5.1 配置安全 (制度 001)
- 生产区只读: 严禁智能体直接修改
/home/zl/.openclaw/openclaw.json。 - 沙盒测试: 所有配置修改必须在工作区 (
workspace/) 完成,经人工确认后部署。
5.2 数据安全
- 敏感信息隔离: API Key、密码等存入
1password或环境变量,严禁明文写入代码/文档。 - 最小权限原则: 每个节点/智能体仅拥有完成任务所需的最小权限 (如发布节点无权访问原始语料库)。
5.3 内容安全
- 红线过滤: 在“门下省”阶段加入政治敏感性、合规性审查 (调用审核 API)。
- 人工兜底: 发布前必须经过真人“批红”确认。
6. 飞书多服务器集成方案
6.1 核心挑战
飞书机器人与飞书应用是一对一绑定的。若要在同一飞书组织内管理多台服务器,需解决“单点接入”问题。
6.2 解决方案:多实例 + 统一入口
**方案 A:多 AppID 集群 **(推荐,隔离性好)
- 创建多个飞书应用: 在飞书开发者后台为每台服务器创建独立应用 (AppID/Secret)。
StoryHui-US(美国节点)StoryHui-Huo(火山节点)StoryHui-Local(本地点)
- 配置独立机器人: 每个应用对应一个机器人,加入同一个飞书群。
- 任务分发逻辑:
- 用户在群里
@StoryHui-US提问 -> 美国节点响应。 - 用户
@StoryHui-Huo-> 火山节点响应。 - 总控协调: 美国节点作为“总入口”,解析复杂指令,若有需要,通过内部协议调度其他节点,并将结果汇总回复。
- 用户在群里
**方案 B:网关聚合 **(高级,体验统一)
- 单一入口: 只部署一个飞书机器人 (如在美国节点)。
- 内部路由: 该节点接收所有消息,根据负载或指令内容,内部转发给其他服务器处理。
- 优势: 用户无感知,只需面对一个机器人。
- 劣势: 单点故障风险,需确保美国节点高可用。
6.3 实施步骤 (以方案 A 为例)
- 创建应用: 在飞书开发者平台创建 3 个应用,获取
AppID和AppSecret。 - 配置权限: 为每个应用配置相同的权限 (消息发送/接收、群组权限等)。
- 部署配置: 在各服务器
openclaw.json或独立配置文件中填入对应的AppID/Secret。 - 群组集成: 将 3 个机器人全部拉入“故事慧创作群”。
- 指令规范:
@US 创作一篇关于...@Huo 审核这篇文章...@All 开始朝议...(触发群聊模式)
7. 实施路线图
第一阶段:基建搭建 (T+1 周)
- 执行“目录架构改造”,建立共享存储区。
- 部署飞书多应用,完成连通性测试。
- 编写“三省六部”基础 Prompt 库。
第二阶段:单点演练 (T+2 周)
- 在美国服务器内部跑通“中书 - 门下 - 尚书”全流程。
- 验证 EDICT 文档格式 (Frontmatter + Comment)。
第三阶段:集群联调 (T+3 周)
- 接入火山/腾讯节点,测试跨服务器任务分发。
- 实现“多模型朝议”功能。
第四阶段:正式运营 (T+4 周)
- 全员上线,开始八大板块创作。
- 根据运行数据优化模型分配策略。
8. 附录:配置模板
8.1 标准文档模板 (Markdown)
---
id: task_001
title: 示例标题
status: drafting # drafting, reviewing, approved, published
author: agent-zhongshu
created_at: 2026-03-14T23:00:00Z
---
# 正文
这里是内容...
<!-- COMMENT by="agent-menxia" type="suggestion" -->
> 建议修改...
<!-- END_COMMENT -->
8.2 飞书配置示例 (openclaw.json)
"channels": {
"feishu": {
"enabled": true,
"appId": "cli_a92f2ec64b38dbc4", // 当前节点 AppID
"appSecret": "...",
"connectionMode": "websocket"
}
}
备注: 本方案为故事慧技术运营的顶层设计方案,后续所有技术开发与流程优化均需遵循此白皮书。